Anticiper : un passage obligé dès l'introduction de l'IA
L'introduction d'un outil d'intelligence artificielle dans l'entreprise n'est jamais neutre juridiquement. Elle peut constituer l'introduction d'une nouvelle technologie, ce qui impose en principe une information et une consultation préalable du CSE, y compris lorsque l'outil est déployé progressivement ou en phase pilote. Les juges ont d'ailleurs déjà suspendu des projets pour défaut de consultation.
Au-delà du dialogue social, l'employeur doit également anticiper les impacts sur les emplois et les contrats de travail. L'IA peut modifier la répartition des tâches, faire évoluer les compétences attendues, voire supprimer certains postes. Dans certains cas, cela peut relever d'une simple adaptation des conditions de travail ; dans d'autres, d'une modification du contrat nécessitant l'accord du salarié.
Enfin, l'IA peut aussi devenir un motif de réorganisation, voire de licenciement économique en cas de mutation technologique. Autrement dit : déployer un outil sans réflexion en amont, c'est souvent créer un risque juridique différé... mais certain.
Encadrer et contrôler : sécuriser les usages au quotidien
Une fois l'IA en place, le véritable enjeu devient son utilisation concrète par les équipes. Et c'est souvent là que les difficultés apparaissent. Utilisation d'outils non validés ("shadow IA"), intégration de données confidentielles dans des plateformes externes, ou encore décisions prises sur la base de résultats biaisés : les risques sont multiples.
Pour y faire face, l'employeur a tout intérêt à structurer un cadre clair. Cela passe d'abord par une charte interne sur l'usage de l'IA, idéalement intégrée au règlement intérieur pour lui donner une portée contraignante. Elle permet de définir les outils autorisés, les règles d'utilisation et les interdictions, notamment en matière de confidentialité.
Mais une charte seule ne suffit pas. L'employeur doit également former et sensibiliser les salariés, conformément à son obligation d'adaptation, et intégrer les risques liés à l'IA dans son document unique d'évaluation des risques (DUERP). Enfin, il peut mettre en place des outils de contrôle, à condition de respecter les règles relatives à la vie privée et d'informer préalablement les salariés et le CSE.
En pratique, l'IA n'est pas seulement un outil de performance : c'est un sujet de gouvernance. Et les entreprises qui l'encadrent sérieusement aujourd'hui éviteront des contentieux demain.